Come il cervello elabora parole e musica di una canzone

 

 

GIOVANNI ROSSI

 

 

NOTE E NOTIZIE - Anno XVII – 21 marzo 2020.

Testi pubblicati sul sito www.brainmindlife.org della Società Nazionale di Neuroscienze “Brain, Mind & Life - Italia” (BM&L-Italia). Oltre a notizie o commenti relativi a fatti ed eventi rilevanti per la Società, la sezione “note e notizie” presenta settimanalmente lavori neuroscientifici selezionati fra quelli pubblicati o in corso di pubblicazione sulle maggiori riviste e il cui argomento è oggetto di studio dei soci componenti lo staff dei recensori della Commissione Scientifica della Società.

 

 

[Tipologia del testo: RECENSIONE]

 

Ascoltare con piacere una canzone, magari perché siamo attratti e affascinati dalla musica, dal testo o da entrambi, è un’esperienza comune che impegna numerosi processi cerebrali, dall’elaborazione simultanea delle informazioni musicali e verbali, alla gestione degli effetti evocativi sul tono affettivo e sulle emozioni, passando per la preparazione di schemi psicomotori corrispondenti al ritmo. Ciascuna di queste componenti dell’ascolto è stata studiata separatamente e ha rivelato differenze individuali per lo più rappresentabili secondo un andamento gaussiano, con gli estremi della curva che includono da una parte le persone più carenti in sensibilità musicale e, dall’altra, le più dotate.

Ma, nonostante queste differenze, che si rendono particolarmente evidenti nel caso delle persone “stonate”, ossia incapaci di riprodurre correttamente col canto una melodia anche se ascoltata più volte, il cervello di tutti noi è in grado di elaborare in maniera distinta, specializzata e mai confusa, le informazioni acustiche musicali e verbali, anche quando sono sostanzialmente fuse come nelle canzoni. Sulla base di dati anatomo-clinici, rilievi di neuroimaging funzionale ed evidenze sperimentali, che forniscono elementi a favore di una sofisticata specializzazione di dettaglio, si è implicitamente assunta la nozione di due distinti processi percettivi, uno per l’analisi e la sintesi acustica musicale, l’altro per analisi e sintesi acustica verbale.

Ma è lecito chiedersi: sono proprio due flussi di elaborazione del tutto distinti e separati, oppure vi sono dei punti di contatto? Ad esempio, le aree corticali o i gruppi neuronici tradizionalmente individuati in neuropsicologia quali sedi di elaborazione di fonemi vocalici possono intervenire nella percezione delle note di frequenza prossima alle vocali? Oppure, i sistemi neuronici dell’emisfero destro implicati nel riconoscimento dell’intonazione prosodica legata alla lingua o al dialetto del parlante, non sono gli stessi che consentono di distinguere le tonalità maggiori dalle minori e di apprezzare lo sviluppo armonico che fa da sfondo a un tema melodico?

È ancora difficile rispondere a questi interrogativi, ma intanto si può considerare che l’asimmetria cerebrale nella specializzazione percettiva accomuna parole e musica.

Philippe Albouy e colleghi, guidati dal celebre studioso di basi cerebrali della musica Robert J. Zatorre, hanno cercato con un interessante progetto di ricerca di dare risposta alle seguenti domande: fino a che punto la percezione verbale e musicale dipendono da meccanismi diversi nel cervello umano? Qual è la base anatomica sottostante questa specializzazione? L’asimmetria cerebrale per parole e musica è emersa da stimoli acustici o da reti neuroniche specifiche per dominio?

(Albouy F., et al. Distinct sensitivity to spectrotemporal modulation supports brain asymmetry for speech and melody. Science 367 (6481): 1043-1047, 2020).

La provenienza degli autori è la seguente: Cognitive Neuroscience Unit, Montreal Neurological Institute, McGill University, Montreal, QC (Canada); International Laboratory for Brain, Music and Sound Research (BRAMS), Montreal, QC (Canada); Centre for Research in Brain Language and Music, Montreal, QC (Canada); Centre for Interdisciplinary Research in Music, Media and Technology, Montreal, QC (Canada); CERVO Brain Research Center, School of Psychology, Laval University, QC (Canada); Aix Marseille University, INSERM, INS, Institut de Neurosciences des Systèmes, (France).

La difficoltà di separare le due componenti verbale e melodica, oltre ad essere apparsa in passato irrealizzabile per difficoltà tecnica, era stata ritenuta da alcuni ricercatori non proponibile, in quanto la musica, nella concezione culturale umana, si ritiene sia nata, oltre che dalla percezione dei suoni presenti in natura come il canto degli uccelli o il fischiare del vento, dalla musicalità della parola, con le sue modulazioni affettive ed emozionali che creano spettri acustici in ogni unità o segmento del linguaggio, dai singoli fonemi alla prosodia dei discorsi. Dunque, se la musica è nata almeno in parte dalla parola, ossia da semplice componente vocale della comunicazione si è emancipata in arte, tecnica e scienza del suono, non avrebbe avuto senso, secondo quei ricercatori, indagarne una base cerebrale distinta.

Tuttavia, ha prevalso l’opinione della maggioranza, secondo cui questa specializzazione funzionale, pur essendo un processo acquisito nella diacronia antropologica e non rappresentando il prodotto di un’evoluzione di lunga storia biologica naturale, può essersi affermata attraverso una localizzazione differenziata.

Su questa base, la scuola di Robert J. Zatorre, che nella sua carriera di ricercatore ha dato un contributo rilevante alla comprensione delle basi neurobiologiche dell’esperienza musicale e agli effetti esercitati dall’ascolto della musica sul cervello e sulle sue funzioni del più alto livello di sintesi integrativa, ha indagato le reti dell’encefalo che mediano la risposta a stimoli acustici di natura differente, come la voce umana e il suono dei vari strumenti musicali. In passato, le differenze fra stimoli musicali erano ricondotte agli spettri di frequenza propri delle tonalità, declinate secondo la scala diatonica naturale[1] e, al massimo, si giungeva a caratterizzare timbri; ora la sfida era cercare di comprendere come si comporta il cervello di fronte a “parole che sono musica”.

I ricercatori hanno creato un vero e proprio corpus di “canzoni a cappella” – ossia di brani per sola voce, da eseguire senza l’impiego di strumenti musicali – che contenevano sia informazioni verbali di tipo semantico sia informazioni musicali di tipo melodico, e hanno poi selettivamente filtrato modulazioni temporali o spettrali negli stimoli acustici costituiti dalle parole del canto, in modo tale che i contenuti verbali e melodici fossero distinti e bilanciati. Con questa tecnica, Philippe Albouy e colleghi sono riusciti a degradare ciascuno stimolo selettivamente o solo nel dominio temporale o solo nel dominio spettrale.

Degradando l’informazione temporale, all’ascolto diventava difficile o impossibile riconoscere le parole della canzone, ma poteva essere facilmente riconosciuta la melodia; degradando, invece, l’informazione spettrale si aveva la compromissione della possibilità di riconoscere la melodia, senza nessun ostacolo al riconoscimento delle parole.

Agli esperimenti di riconoscimento si confermava che la comprensione del testo all’ascolto si riduceva soltanto degradando l’informazione temporale, mentre la percezione distinta delle melodie era alterata solo degradando l’informazione spettrale.

Lo studio del cervello dei volontari mediante risonanza magnetica funzionale (fMRI, da functional magnetic resonance imaging), eseguita durante le prove di riconoscimento, ha prodotto evidenze interessanti. I quadri di attività del cervello, consultabili come illustrazioni e corredo iconografico dell’articolo originale, forniscono l’evidente rappresentazione di configurazioni di aree attive secondo pattern particolari e specifici. Si tratta di reti neuroniche che possono accostarsi a quelle di altri studi sull’ascolto di brani di musica strumentale e di canzoni eseguite da voci e orchestra, ma le differenze sono di capitale importanza, perché riguardano la prima effettiva documentazione diacritica della risposta cerebrale separata alla sola componente melodica e alla sola componente verbale.

In sintesi, le parole in quanto tali attivavano nell’emisfero sinistro del cervello una superficie circoscritta del giro temporale trasverso o prima circonvoluzione temporale, corrispondente all’area 41 della mappa citoarchitettonica di Brodmann della corteccia cerebrale, o area acustica primaria, le aree circostanti site nell’opercolo temporale e costituenti la corteccia uditiva di associazione, e infine tutte le aree corticali e sottocorticali a queste associate in una rete di elaborazione percettiva verbale.

Al contrario, la melodia attivava nell’emisfero destro del cervello la corteccia uditiva di destra e le altre regioni cerebrali dello stesso lato, implicate nell’elaborazione di caratteri qualitativi degli stimoli acustici.

Dai correlati si desume che la classificazione dei contenuti verbali si verificava esclusivamente nella corteccia uditiva di sinistra; mentre la classificazione dei contenuti melodici si verificava esclusivamente nella corteccia uditiva di destra.

Sulla base dei rilievi effettuati, Philippe Albouy e colleghi osservano che questa asimmetria è supportata dalla specifica sensibilità al tasso di modulazione spettro-temporale all’interno di ciascuna regione cerebrale, e che gli effetti di degradazione sulla percezione avevano un riscontro parallelo negli effetti sulla classificazione neurale.

Commentando i risultati dello studio, che forniscono un’eloquente risposta ai primi due interrogativi all’origine dell’indagine, i ricercatori deducono una soluzione anche per il terzo quesito, ossia se l’asimmetria cerebrale per parole e musica è stata creata dalla qualità degli stimoli acustici o si deve alla specificità delle reti neuroniche per quel dominio funzionale, determinata in precedenza da altre ragioni evoluzionistiche: i risultati suggeriscono un effetto congiunto delle proprietà acustiche dei segnali e dell’adozione per il nuovo scopo delle specializzazioni neurali esistenti.

 

L’autore della nota ringrazia la dottoressa Isabella Floriani per la correzione della bozza e invita alla lettura delle recensioni di studi di argomento connesso che appaiono nella sezione “NOTE E NOTIZIE” del sito (utilizzare il motore interno nella pagina “CERCA”).

 

Giovanni Rossi

BM&L-21 marzo 2020

www.brainmindlife.org

 

 

 

________________________________________________________________________________

 

La Società Nazionale di Neuroscienze BM&L-Italia, affiliata alla International Society of Neuroscience, è registrata presso l’Agenzia delle Entrate di Firenze, Ufficio Firenze 1, in data 16 gennaio 2003 con codice fiscale 94098840484, come organizzazione scientifica e culturale non-profit.

 

 

 

 



[1] Do-Re-Mi-Fa-Sol-La-Si-Do, più diesis/bemolle interposti. Nei nostri seminari aperti al pubblico (tenuti in Firenze presso il Caffè storico “Gilli” in Piazza della Repubblica dal 2006 al 2009) sul tema “Musica e Cervello” abbiamo documentato e illustrato numerosi studi delle produzioni vocali umane in termini musicali. Nella differenza tonale fra la voce della madre e quella del lattante è stata riconosciuta la consonanza di un intervallo di quinta perfetto (es.: Do-Sol).